首页> 外文OA文献 >Choosing Smartly: Adaptive Multimodal Fusion for Object Detection in Changing Environments
【2h】

Choosing Smartly: Adaptive Multimodal Fusion for Object Detection in Changing Environments

机译:智能选择:自适应多模态融合在物体中的目标检测   改变环境

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Object detection is an essential task for autonomous robots operating indynamic and changing environments. A robot should be able to detect objects inthe presence of sensor noise that can be induced by changing lightingconditions for cameras and false depth readings for range sensors, especiallyRGB-D cameras. To tackle these challenges, we propose a novel adaptive fusionapproach for object detection that learns weighting the predictions ofdifferent sensor modalities in an online manner. Our approach is based on amixture of convolutional neural network (CNN) experts and incorporates multiplemodalities including appearance, depth and motion. We test our method inextensive robot experiments, in which we detect people in a combined indoor andoutdoor scenario from RGB-D data, and we demonstrate that our method can adaptto harsh lighting changes and severe camera motion blur. Furthermore, wepresent a new RGB-D dataset for people detection in mixed in- and outdoorenvironments, recorded with a mobile robot.
机译:对于在不动态和变化的环境中运行的自主机器人而言,对象检测是一项必不可少的任务。机器人应该能够在存在传感器噪声的情况下检测物体,这些噪声可能是由于摄像机的照明条件改变以及距离传感器(尤其是RGB-D摄像机)的错误深度读数引起的。为了解决这些挑战,我们提出了一种新颖的用于物体检测的自适应融合方法,该方法以在线方式学习加权不同传感器模态的预测。我们的方法基于卷积神经网络(CNN)专家的混合,并结合了包括外观,深度和运动在内的多种模式。我们在广泛的机器人实验中测试了该方法,在该实验中,我们从RGB-D数据中检测了室内和室外组合情况下的人员,并证明了该方法可以适应恶劣的光照变化和严重的相机运动模糊。此外,我们提供了一个新的RGB-D数据集,用于在移动和室外混合环境中进行人员检测,并使用移动机器人进行了记录。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号